70 research outputs found

    Metadatenmanagement bei Data-Lake-Realisierungsansätzen

    Get PDF

    Prognose von Aktienkursen mit maschinellen Lernverfahren

    Get PDF
    Im Zuge der Digitalisierung und im Zeitalter von Industrie 4.0 werden immer mehr Daten generiert. Beispielsweise sorgen mit Sensoren ausgestattete Fertigungsanlagen für eine große Anzahl an Daten, die wichtige Erkenntnisse für die Optimierung und Automatisierung des Fertigungsprozesses in produzierenden Unternehmen liefern. Generell bieten Kunden-, Log- und Sensordaten enormes Informations- und Wissenspotential, das jedoch erst durch die richtigen Vorhersagemodelle ausgeschöpft werden kann. In diesem Zusammenhang eröffnen Algorithmen und Modelle aus dem Bereich der künstlichen Intelligenz sowohl Unternehmen als auch Privatpersonen völlig neue Möglichkeiten und Chancen, um aus den großen Datenmengen gewinnbringende Informationen für komplexe Sachverhalte zu extrahieren.Ein komplexes Themengebiet, das außerdem eine große Menge an Daten für Auswertungs- und Analysezwecke aufweist, ist die Prognose von zukünftigen Aktienkursen. Bislang ist wenig darüber bekannt, welche Ergebnisse ein Modell erzielt, das zusätzlich zu ausgewerteten Twitter- und Börsennachrichten andere Faktoren klassischer Bewertungstechniken für Aktienkurse einbezieht, um die Anzahl möglicher Einflussfaktoren zu erhöhen. Ein Beispiel für solche klassischen Bewertungstechniken stellen Indikatoren der technischen Analyse der Finanzmärkte dar, die aus den Zeitreihen der Aktienkursdaten berechnet werden.Im Rahmen dieser Masterarbeit soll daher beantwortet werden, ob ausgewählte Indikatoren der technischen Analyse mit den Ergebnissen einer Sentimentanalyse von Twitter- und Börsennachrichten kombiniert werden können, um ein Modell des maschinellen Lernens zu erstellen, mit dem Gewinne am Aktienmarkt erzielt werden können.Für die Erstellung des Modells wurden Twitter- und Börsennachrichten, sowie historische Aktienkursdaten zu den Unternehmen des Nasdaq 100-Index gesammelt. Die Twitter- und Börsennachrichten wurden für jedes Unternehmen gruppiert und einer Sentimentanalyse unterzogen, wodurch für jeden Tag des Untersuchungszeitraum vom 28.10.2019 bis zum 31.01.2020 jeweils ein Sentiment für die Twitter- und Börsennachrichten pro Unternehmen vorlag. Die gesammelten Daten wurden anschließend in eine einheitliche Struktur zusammengeführt. Durch die Datenzusammenführung konnten die Daten im weiteren Verlauf untersucht werden, um erste Informationen bezüglich der Verteilung und Korrelation der einzelnen Features zu gewinnen. Die im Rahmen der Datenuntersuchung gewonnenen Erkenntnisse wurden im nächste Schritt für die Vorbereitung der Daten eingesetzt, um den Trainingsprozess des Modells zu optimieren. Die vorbereiteten Daten wurden schließlich für das Training eines vorwärtsgerichteten neuronalen Netzes verwendet, das darauf trainiert wurde, geeignete Kauf- und Verkaufspunkte für ausgewählte Aktien zu identifizieren.Auf Basis der vorliegenden Testdaten erzielt das erstellte Modell bei einem Startkapital von 19.000ineinemZeitraumvon3MonateneinenGewinnvon19.000 in einem Zeitraum von 3 Monaten einen Gewinn von 1.155,83, was einer Rendite von 6,08% entspricht. Die zentrale Erkenntnis ist, dass das erstellte Modell Ergebnisse liefert, mit denen sich vereinzelte, jedoch keine garantierten Gewinne am Aktienmarkt erzielen lassen. Weiterhin werden in der Arbeit Punkte genannt, mit denen sich die Prognosen des Modells weiter verbessern lassen. Die Ergebnisse einer Sentimentanalyse von Twitter- und Börsennachrichten, in Kombination mit den gewählten Indikatoren der technischen Analyse der Finanzmärkte, stellen daher eine solide Datenbasis für die Identifizierung von geeigneten Kauf- und Verkaufspunkte für Aktien dar

    Integration und Konnexion : Tagungsband zur 26. AKWI-Jahrestagung vom 15. bis 18.09.2013 an der Technischen Hochschule Mittelhessen

    Get PDF
    Das aufgerufene Thema „Herausforderungen an die Wirtschaftsinformatik: Integration und Konnexion“ provozierte Beiträge, die thematisch ein sehr breites Spektrum abdecken. Neben theoretischen Betrachtungen und Definitionen des sicher noch nicht final geprägten Begriffs der Konnexion gab es auch sehr praktische Beiträge wie die Darstellung von konkreten prototypischen Entwicklungsvorhaben. Auch das ist ein Indiz für die lebendige Landschaft der Wirtschaftsinformatik an den deutschsprachigen Hochschulen für Angewandte Wissenschaften

    Vergleichende Bewertung zwischen SAP BW/4HANA und einem SAP HANA SQL Data Warehouse

    Get PDF

    Digitalisierung des Berichtswesens im Bereich Operative Locomotives and Budget Planning: Methoden aus dem Bereich Business Intelligence der DB Cargo AG

    Get PDF
    Die Masterarbeit ist in Zusammenarbeit mit der DB Cargo AG entstanden. DB Cargo ist ein führender globaler Logistikdienstleister und der größte Anbieter im Schienengüterverkehr in Europa. Die Gesellschaft gehört zu 100 % der Deutschen Bahn AG. Die DB Cargo beschäftigte im Jahr 2018 28.842 Mitarbeiter und beförderte 255 Millionen Tonnen Güter.Die beteiligten Abteilungen sind das Asset Intelligence Center (u.a. zuständig für Digitalisierungsprojekte) und Operative Locomotives and Budget Planning. Sie sind beispielsweise für die Instandhaltungs- und Trieb-fahrzeugbedarfs-Planung verantwortlich.Aktuell sind die Zeitaufwände, die für die Erstellung des Berichtswesens benötigt werden, sehr hoch. Dies ist u.a. darauf zurückzuführen, dass viele manuelle Tätigkeiten anfallen.Das Ziel dieser Arbeit bestand darin, durch die Digitalisierung eines Teils des Berichtswesens die Zeitaufwände signifikant zu verringern. Weiterhin wurden mit der Software Tableau Visualisierungen bereitgestellt, die einen Self-Service-Business-Intelligence-Ansatz unterstützen.Durch den Einsatz von Scrum konnten die Anforderungen der Stakeholder agil aufgenommen und gemanagt werden. Zudem sind durch den Einsatz des KDD-Prozesses sowie CRISP-DM die Visualisierungen realisiert worden. Der KDD-Prozess wurde bei festgelegten Visualisierungen eingesetzt. Hingegen wurde CRISP-DM bei Analysen, die eine erweiterte Sicht auf eventuelle Ergebnisansätze ermöglichen, verwendet. Dieses Vorgehen ermöglichte die Rückmeldungen und Anmerkungen der Stakeholder direkt einzubeziehen.Mit verschiedenen Python-Skripten und dem Zusammenführen von Datenquellen wurde eine Teilautomatisierung realisiert. Dadurch sind viele manuelle Tätigkeiten automatisiert worden. Das Aktualisieren der Datenquellen und Starten der Skripte muss allerdings noch manuell erfolgen.Die anschließenden Datenintegrationen in Tableau sind hingegen automatisiert. Durch den Tableau Server werden die durch die Teilautomatisierung bereit-gestellten Datenquellen an jedem Werktag aktualisiert.In Tableau wurde eine größere Anzahl von Dashboards mit Visualisierungen (Kennzahlen und Analysen) bereit-gestellt. Darunter fallen zum Beispiel Plan-Ist-Vergleiche und Ausreißeranalysen. Die Dashboards besitzen ein identisches Layout im Corporate Design der DB. Es sind die Filtermöglichkeiten und verschiedene Buttons vorhanden, welche die Betrachtung weiterer Dashboards oder der Hilfefunktionalität ermöglichen.Um die Zielsetzung qualitativ zu überprüfen, wurde eine interne Evaluierung anhand der NutzerInnen durch-geführt. Das Ergebnis dieser Evaluierung ist, dass eine geschätzte Zeitersparnis von einer bis drei Stunden pro Woche bei der Erstellung des Berichtswesens und wiederkehrenden Fragen vorzufinden ist. Insgesamt wird der DB Cargo mit diesem Projekt eine teilautomatisierte Lösung bereitgestellt, die einen Zeitgewinn sowie einen erweiterten Blick auf die Daten im Bereich Self-Service BI ermöglicht.Die Masterarbeit ist in Zusammenarbeit mit der DB Cargo AG entstanden. DB Cargo ist ein führender globaler Logistikdienstleister und der größte Anbieter im Schienengüterverkehr in Europa. Die Gesellschaft gehört zu 100 % der Deutschen Bahn AG. Die DB Cargo beschäftigte im Jahr 2018 28.842 Mitarbeiter und beförderte 255 Millionen Tonnen Güter.Die beteiligten Abteilungen sind das Asset Intelligence Center (u.a. zuständig für Digitalisierungsprojekte) und Operative Locomotives and Budget Planning. Sie sind beispielsweise für die Instandhaltungs- und Trieb-fahrzeugbedarfs-Planung verantwortlich.Aktuell sind die Zeitaufwände, die für die Erstellung des Berichtswesens benötigt werden, sehr hoch. Dies ist u.a. darauf zurückzuführen, dass viele manuelle Tätigkeiten anfallen.Das Ziel dieser Arbeit bestand darin, durch die Digitalisierung eines Teils des Berichtswesens die Zeitaufwände signifikant zu verringern. Weiterhin wurden mit der Software Tableau Visualisierungen bereitgestellt, die einen Self-Service-Business-Intelligence-Ansatz unterstützen.Durch den Einsatz von Scrum konnten die Anforderungen der Stakeholder agil aufgenommen und gemanagt werden. Zudem sind durch den Einsatz des KDD-Prozesses sowie CRISP-DM die Visualisierungen realisiert worden. Der KDD-Prozess wurde bei festgelegten Visualisierungen eingesetzt. Hingegen wurde CRISP-DM bei Analysen, die eine erweiterte Sicht auf eventuelle Ergebnisansätze ermöglichen, verwendet. Dieses Vorgehen ermöglichte die Rückmeldungen und Anmerkungen der Stakeholder direkt einzubeziehen.Mit verschiedenen Python-Skripten und dem Zusammenführen von Datenquellen wurde eine Teilautomatisierung realisiert. Dadurch sind viele manuelle Tätigkeiten automatisiert worden. Das Aktualisieren der Datenquellen und Starten der Skripte muss allerdings noch manuell erfolgen.Die anschließenden Datenintegrationen in Tableau sind hingegen automatisiert. Durch den Tableau Server werden die durch die Teilautomatisierung bereit-gestellten Datenquellen an jedem Werktag aktualisiert.In Tableau wurde eine größere Anzahl von Dashboards mit Visualisierungen (Kennzahlen und Analysen) bereit-gestellt. Darunter fallen zum Beispiel Plan-Ist-Vergleiche und Ausreißeranalysen. Die Dashboards besitzen ein identisches Layout im Corporate Design der DB. Es sind die Filtermöglichkeiten und verschiedene Buttons vorhanden, welche die Betrachtung weiterer Dashboards oder der Hilfefunktionalität ermöglichen.Um die Zielsetzung qualitativ zu überprüfen, wurde eine interne Evaluierung anhand der NutzerInnen durch-geführt. Das Ergebnis dieser Evaluierung ist, dass eine geschätzte Zeitersparnis von einer bis drei Stunden pro Woche bei der Erstellung des Berichtswesens und wiederkehrenden Fragen vorzufinden ist. Insgesamt wird der DB Cargo mit diesem Projekt eine teilautomatisierte Lösung bereitgestellt, die einen Zeitgewinn sowie einen erweiterten Blick auf die Daten im Bereich Self-Service BI ermöglicht

    DataOps für cloudbasierte Artefakte und Anwendungen

    Get PDF

    Teilautomatisierung von Prozessschritten in einem mittelständischen ITK-Unternehmen mithilfe der ERP-Lösung Microsoft Dynamics NAV (am Beispiel der Branchenlösung SITE)

    Get PDF
    Die vorliegende Arbeit ist im Umfeld der MVC Mobile VideoCommunication GmbH entstanden und thematisiert die Strategieentwicklung zur Auto-matisierung einzelner Geschäftsprozesse mithilfe des ERP-Systems Microsoft Dynamics NAV und einer darauf aufsetzenden Branchenlösung (SITE). Das Unternehmen steht derzeit durch die Marktsituation der Anforderung gegenüber, die internen Geschäfts-prozesse zu automatisieren und damit effizienter zu gestalten, um die Produktivität der Mitarbeiter zu steigern. Innerhalb dieser Arbeit wurden die zu betrachtenden Geschäftsprozesse zunächst fundiert ausgewählt, auf Automatisierungspotentiale analysiert und auf Stärken und Schwächen untersucht. Schließlich wurde mithilfe bestehender Standard-Funktionalitäten und/oder Anpassungen an der Branchenlösung SITE (basierend auf dem ERP-System Microsoft Dynamics NAV) ein prototypischer Entwurf dieser Automatisierungen umgesetzt. Für die Auswahl der potentialreichsten Prozessschritte hat sich die Verfahrensmethode des Activity Samplings als nützlich erwiesen, durch die mithilfe stichproben-artiger Erfassung der jeweiligen Arbeitsschritte, zu zufällig ausgewählten Zeitpunkten, die Tätigkeitsverteilung ermittelt werden kann. Die dabei am stärksten auftretenden Prozessabläufe wurden daraufhin detaillierter untersucht, durch die Anforderungen an die Automatisierungspotentiale formuliert werden konnten. Anschließend wurden diese Anforderungen technisch konzeptioniert und in der Programmiersprache C/AL über verschiedene Lösungen entwickelt. Um die Zukunftssicherheit der realisierten Lösung sicherzustellen, empfiehlt sich eine perspektivische Migration auf die Extension-Technologie, die das Ziel verfolgt, den bisher aufwändigen Update-Prozess wesentlich zu verschlanken.Die vorliegende Arbeit ist im Umfeld der MVC Mobile VideoCommunication GmbH entstanden und thematisiert die Strategieentwicklung zur Auto-matisierung einzelner Geschäftsprozesse mithilfe des ERP-Systems Microsoft Dynamics NAV und einer darauf aufsetzenden Branchenlösung (SITE). Das Unternehmen steht derzeit durch die Marktsituation der Anforderung gegenüber, die internen Geschäfts-prozesse zu automatisieren und damit effizienter zu gestalten, um die Produktivität der Mitarbeiter zu steigern. Innerhalb dieser Arbeit wurden die zu betrachtenden Geschäftsprozesse zunächst fundiert ausgewählt, auf Automatisierungspotentiale analysiert und auf Stärken und Schwächen untersucht. Schließlich wurde mithilfe bestehender Standard-Funktionalitäten und/oder Anpassungen an der Branchenlösung SITE (basierend auf dem ERP-System Microsoft Dynamics NAV) ein prototypischer Entwurf dieser Automatisierungen umgesetzt. Für die Auswahl der potentialreichsten Prozessschritte hat sich die Verfahrensmethode des Activity Samplings als nützlich erwiesen, durch die mithilfe stichproben-artiger Erfassung der jeweiligen Arbeitsschritte, zu zufällig ausgewählten Zeitpunkten, die Tätigkeitsverteilung ermittelt werden kann. Die dabei am stärksten auftretenden Prozessabläufe wurden daraufhin detaillierter untersucht, durch die Anforderungen an die Automatisierungspotentiale formuliert werden konnten. Anschließend wurden diese Anforderungen technisch konzeptioniert und in der Programmiersprache C/AL über verschiedene Lösungen entwickelt. Um die Zukunftssicherheit der realisierten Lösung sicherzustellen, empfiehlt sich eine perspektivische Migration auf die Extension-Technologie, die das Ziel verfolgt, den bisher aufwändigen Update-Prozess wesentlich zu verschlanken

    Konzeption und Implementierung einer DICOM-Schnittstelle in einem Data Lake in der Cloud am Beispiel Microsoft Azure

    Get PDF
    Die Digitalisierung im Gesundheitswesen und der damit einhergehende medizintechnische Fortschritt bieten große Chancen für eine effizientes Gesundheitssystem und dessen Versorgungsprozesse. Der Forschungs-campus „Mannheim Molecular Intervention Environment (M2OLIE)“ beschäftigt sich in diesem Bereich mit der Behandlung oligometastasierter Patienten. Im Rahmen dieses Forschungscampus soll ein geschlossener Behandlungsprozess entstehen, welcher die Behandlungsdauer verkürzen und die Behandlungsqualität steigern soll. Damit dieser Behandlungsprozess so effizient wie möglich gestaltet werden kann, müssen die Teilschritte der Behandlung zu einem Closed-Loop-Prozess integriert werden. Die Umsetzung eines solchen Closed-Loop-Prozesses bedarf einer zentralen Dateninfrastruktur. Diese Daten-infrastruktur soll als Data-Lake-Architektur in der Cloud auf Microsoft Azure umgesetzt werden. Die Umsetzung wirft dabei verschiedene Fragestellungen auf. Zum einen stellt sich die Frage, wie eine geeignete Data-Lake-Architektur in der Cloud umgesetzt werden kann, und zum anderen, wie sich eine DICOM-Schnittstelle zur Integration der klinischen Basissysteme implementieren lässt. Ziel der Arbeit ist die Konzeption und Implementierung einer Data-Lake-Architektur in der Cloud auf Microsoft Azure und die Implementierung einer DICOM-Schnittstelle in den Data Lake, für die Integration der klinischen Basissysteme. Dazu wurden zunächst die Anforderungen, sowohl an die DICOM-Schnittstelle, als auch an die Gesamt-architektur definiert. Anhand der Anforderungen wurden im nächsten Schritt die für die Implementierung genutzten Azure Komponenten ausgewählt und die Abläufe der verschiedenen Funktionalitäten definiert. Darauf aufbauend folgt dann die Implementierung der einzelnen Azure-Komponenten sowie der zuvor konzipierten Abläufe. Abschließend wird ein Abschlusstest der Implementierung zur Verifizierung der Umsetzung durchgeführt und deren Ergebnis dokumentiert. Die Frage- und Problemstellungen konnten durch die Konzeption und Implementierung beantwortet werden. Darüber hinaus wurden alle Anforderungen an die DICOM-Schnittstelle und die gesamte Data-Lake-Architektur in der Cloud auf Microsoft Azure erfüllt, getestet und dokumentiert

    Evaluation von Data-Platform-as-a-Service-Lösungen mit Amazon Web Services anhand einer prototypischen Implementierung

    Get PDF
    Durch die fortschreitende Digitalisierung stehen die Unternehmen in einem immer stärkeren Wettbewerb miteinander und müssen sich auf einem globalen Markt behaupten. Auch der Einsatz neuer Technologien zur Gewinnung unternehmensrelevanter Informationen ist zu einem kritischen Erfolgsfaktor geworden. Klassische Business-Intelligence-Methoden stoßen aufgrund unstrukturierter und komplexerer Datenbestände, wie Social Media oder IoT, immer wieder an ihre Grenzen. Die Trends Big Data und Cloud Computing bieten neue Möglichkeiten, diese Daten zu sammeln, zu analysieren und so nützliche Informationen in einem Wettbewerbs-umfeld zu erhalten. Unternehmen sind daher gezwungen, ihre IT stark zu verändern, um am Markt bestehen zu können.Amazon Web Services bietet eine Cloud-basierte Lösung, um klassische Business-Intelligence-Konzepte und große Datenmengen in einem System zu nutzen. Der Umstieg auf die Amazon Cloud ist jedoch ein großer Schritt und erfordert technologisches Know-how. Es stellen sich neue Herausforderungen und Fragen bzgl. der Sicherheitsaspekte, der Funktionalität sowie der Zuverlässigkeit einer Cloudplattform.Zu diesem Zweck befasst sich diese Arbeit mit der Implementierung von Data-Platform-as-a-Service-Lösungen unter Verwendung des Cloud-Anbieters Amazon Web Services. Sie soll als Werkzeug zur Wissensbildung dienen. Die relevanten Komponenten der Amazon Cloud werden theoretisch beschrieben und in einem Prototyp praktisch dokumentiert. Mit Hilfe eines selbst entwickelten Kriterienkatalogs kann der gesamte Prozess eingeordnet und kritisch bewertet werden. Damit bietet die vorliegende Arbeit einen ersten Anhaltspunkt zur Wissensbildung und ein mögliches Modellierungs-werkzeug für Unternehmen, die einen Wechsel in die Amazon-Cloud planen
    corecore